Théorème de Rao-Blackwell
Théorème de Rao-Blackwell :
- \((\Omega,\mathcal A,({\Bbb P}_\theta)_{\theta\in\Theta})\) est un Modèle statistique
- \(T:(\Omega,\mathcal A)\to(E,\mathcal E)\) est une Statistique exhaustive
- \(S:(\Omega,\mathcal A)\to({\Bbb R}^d,{\mathcal B}({\Bbb R}^d))\) et \(s:(E,\mathcal E)\to({\Bbb R}^d,{\mathcal B}({\Bbb R}^d))\) sont tels que $$\forall\theta\in\Theta,\quad S^\prime:=s(T)={\Bbb E}_\theta[S|T]\quad{\Bbb P}_\theta-ps$$
$$\Huge\iff$$
- \(S\) et \(S^\prime\) sont dans la même Classe de biais : \({\Bbb E}_\theta[S]={\Bbb E}_\theta[S^\prime]\)
- \(S^\prime\) est meilleur que \(S\) : \(V_{S^\prime}(\theta)\leqslant V_S(\theta)\)
START
Ω Basique (+inversé optionnel)
Recto: Pourquoi \({\Bbb E}_\theta[S]={\Bbb E}_\theta[S^\prime]\) et \(V_{S^\prime}(\theta)\leqslant V_S(\theta)\) nous disent-ils que \(S^\prime\) est
meilleur que \(S\) ?
Verso: On a la décomposition : $${\Bbb E}[\lvert S-g(\theta)\rvert^2]=\lvert b_S(\theta)\rvert^2+V_S(\theta).$$ Les deux sont dans la même classe de biais, donc l'erreur dépend de la variance.
Bonus:
Carte inversée ?:
END